本文提出了一种新型的固定时间积分滑动模式控制器,以用于增强物理人类机器人协作。所提出的方法结合了遵守入学控制的外部力量和对整体滑动模式控制(ISMC)不确定性的高度鲁棒性的好处,从而使系统可以在不确定的环境中与人类伴侣合作。首先,在ISMC中应用固定时间滑动表面,以使系统的跟踪误差在固定时间内收敛,无论初始条件如何。然后,将固定的后台控制器(BSP)集成到ISMC中,作为标称控制器,以实现全局固定时间收敛。此外,为了克服奇异性问题,设计并集成到控制器中,这对于实际应用很有用。最后,提出的控制器已被验证,用于具有不确定性和外部力量的两连锁机器人操纵器。结果表明,在跟踪误差和收敛时间的意义上,所提出的控制器是优越的,同时,可以在共享工作区中遵守人类运动。
translated by 谷歌翻译
身体机器人的合作需要严格的安全保证,因为机器人和人类在共享工作区中工作。这封信提出了一个新颖的控制框架,以处理针对人类机器人互动的基于安全至关重要的位置的约束。所提出的方法基于入学控制,指数控制屏障功能(ECBF)和二次计划(QP),以在人与机器人之间的力相互作用期间达到合规性,同时保证安全约束。特别是,入学控制的配方被重写为二阶非线性控制系统,并且人与机器人之间的相互作用力被视为控制输入。通过使用欧洲央行-QP框架作为外部人类力量的补偿器,实时提供了用于入学控制的虚拟力反馈。因此,安全轨迹是从建议的低级控制器进行跟踪的建议的自适应入学控制方案中得出的。拟议方法的创新是,拟议的控制器将使机器人能够自然流动性遵守人类力量,而无需违反任何安全限制,即使在人类外部力量偶然迫使机器人违反约束的情况下。在对两链平面机器人操纵器的仿真研究中,我们的方法的有效性得到了证明。
translated by 谷歌翻译
在多机构系统(例如多机构无人驾驶汽车和多机构自动驾驶水下车辆)中,羊群控制是一个重大问题,可增强代理的合作和安全性。与传统方法相反,多机构增强学习(MARL)更灵活地解决了羊群控制的问题。但是,基于MARL的方法遭受了样本效率低下的影响,因为它们需要从代理与环境之间的相互作用中收集大量的经验。我们提出了一种新颖的方法,该方法对MARL(PWD-MARL)的示范进行了预处理,该方法可以利用以传统方法预处理剂来利用非专家示范。在预审进过程中,代理人同时通过MARL和行为克隆从示范中学习政策,并阻止过度拟合示范。通过对非专家示范进行预处理,PWD-MARL在温暖的开始中提高了在线MAL的样品效率。实验表明,即使发生不良或很少的示威,PWD-MARL在羊群控制问题中提高了样本效率和政策性能。
translated by 谷歌翻译
来自3D CTA的多结构(即肾脏,肾脏,动脉和静脉)的准确和自动分割是基于手术的肾脏癌治疗的最重要任务之一(例如,腹腔镜部分肾切除术)。本文简要介绍了MICCAI 2022 KIPA挑战中多结构SEG-Interation方法的主要技术细节。本文的主要贡献是,我们设计具有大量上下文信息限制功能的3D UNET。我们的方法在MICCAI 2022 KIPA CHAL-LENGE开放测试数据集上排名第八,平均位置为8.2。我们的代码和训练有素的模型可在https://github.com/fengjiejiejiejie/kipa22_nnunet上公开获得。
translated by 谷歌翻译
病理诊断依赖于组织学染色的薄组织样品的目视检查,其中使用不同类型的污渍来对比并突出各种所需的组织学特征。但是,破坏性的组织化学染色程序通常是不可逆的,因此很难在同一组织段上获得多个污渍。在这里,我们通过层叠的深神经网络(C-DNN)演示了虚拟的染色转移框架,以数字化将苏木精和曙红(H&E)染色的组织图像转化为其他类型的组织学染色。与单个神经网络结构不同,该结构仅将一种染色类型作为一种输入来输出另一种染色类型的数字输出图像,C-DNN首先使用虚拟染色将自动荧光显微镜图像转换为H&E,然后执行从H&E到另一个域的染色转换以级联的方式染色。在训练阶段的这种级联结构使该模型可以直接利用H&E和目标特殊污渍的组织化学染色图像数据。该优势减轻了配对数据获取的挑战,并提高了从H&E到另一个污渍的虚拟污渍转移的图像质量和色彩准确性。我们使用肾针芯活检组织切片验证了这种C-DNN方法的出色性能,并将H&E染色的组织图像成功地转移到虚拟PAS(周期性酸 - 雪)染色中。该方法使用现有的,组织化学染色的幻灯片提供了特殊污渍的高质量虚拟图像,并通过执行高度准确的污渍转换来创造数字病理学的新机会。
translated by 谷歌翻译
开发了基于深度学习的虚拟染色是为了将图像与无标签的组织截面形成鲜明对比,以数字方式与组织学染色相匹配,组织学染色是耗时,劳动密集型且与组织破坏性的。标准的虚拟染色需要在无标签组织的整个幻灯片成像过程中使用高的自动对焦精度,这会消耗总成像时间的很大一部分,并可能导致组织光损伤。在这里,我们介绍了一个快速的虚拟染色框架,该框架可以染色未标记的组织的散焦自动荧光图像,从而达到与无焦标签图像的虚拟染色相同的性能,还可以通过降低显微镜的自动焦点来节省大量的成像时间。该框架结合了一个虚拟自动化的神经网络,以数字重新聚焦了散落的图像,然后使用连续的网络将重新聚焦的图像转换为几乎染色的图像。这些级联网络构成了协作推理方案:虚拟染色模型通过培训期间的样式损失使虚拟自动化网络正常。为了证明该框架的功效,我们使用人肺组织训练并盲目地测试了这些网络。使用较低的焦点精度的4倍焦点,我们成功地将专注于重点的自动荧光图像转换为高质量的虚拟H&E图像,与使用精心注重的自动荧光输入图像的标准虚拟染色框架相匹配。在不牺牲染色质量的情况下,该框架减少了无标签的全滑动图像(WSI)虚拟染色所需的总图像获取时间〜32%,同时降低了约89%的自动对焦时间,并且具有〜89%消除病理学中费力且昂贵的组织化学染色过程的潜力。
translated by 谷歌翻译
斑块测定是量化复制能力裂解病毒体浓度的黄金标准方法。加快和自动化病毒斑块分析将显着受益于临床诊断,疫苗开发以及重组蛋白或抗病毒药的产生。在这里,我们使用无透明全息成像和深度学习提出了快速且无染色的定量病毒斑块测定法。这种具有成本效益,紧凑和自动化的设备可显着减少传统斑块测定所需的孵化时间,同时保留其优于其他病毒定量方法的优势。该设备以每次测试井的对象捕获〜0.32 Giga像素/小时的相位信息,以无标签的方式覆盖约30x30 mm^2的面积,完全消除了染色。我们使用Vero E6细胞和囊泡气孔病毒证明了这种计算方法的成功。使用神经网络,此无染色装置最早在孵育后5小时内自动检测到第一个细胞裂解事件,并以100%的形式达到了> 90%的检测率(PFU)与传统的斑块测定法相比,特异性在<20小时内,可节省大量时间,而传统的牙菌斑测定时间约为48小时或更长时间。该数据驱动的牙菌斑测定还提供了量化细胞单层感染区域的能力,比标准病毒斑块分析的病毒浓度大10倍,对PFU和病毒感染区域进行自动计数和定量。这种紧凑,低成本的自动PFU定量设备可以广泛用于病毒学研究,疫苗开发和临床应用
translated by 谷歌翻译
人表皮生长因子受体2(HER2)生物标志物的免疫组织化学(IHC)染色在乳腺组织分析,临床前研究和诊断决策中广泛实践,指导癌症治疗和发病机制调查。 HER2染色需要由组织医学表演表演的艰苦组织处理和化学处理,这通常需要一天,以便在实验室中准备,增加分析时间和相关成本。在这里,我们描述了一种基于深度学习的虚拟HER2 IHC染色方法,其使用条件生成的对抗网络培训,训练以便将未标记/标记的乳房组织部分的自发荧光显微镜图像快速转化为明亮场当量的显微镜图像,匹配标准HER2 IHC染色在相同的组织部分上进行化学进行。通过定量分析证明了这一虚拟HER2染色框架的功效,其中三个董事会认证的乳房病理学家盲目地评级了HER2的几乎染色和免疫化化学染色的HER2整个幻灯片图像(WSIS),揭示了通过检查虚拟来确定的HER2分数IHC图像与其免疫组织化学染色的同类一样准确。通过相同的诊断师进行的第二种定量盲化研究进一步揭示了几乎染色的HER2图像在核细节,膜清晰度和染色伪像相对于其免疫组织化学染色的对应物的染色伪影等级具有相当的染色质量。这种虚拟HER2染色框架在实验室中绕过了昂贵,费力,耗时耗时的IHC染色程序,并且可以扩展到其他类型的生物标志物,以加速生命科学和生物医学工作流程的IHC组织染色。
translated by 谷歌翻译
基于视觉的相对本地化可以为空中群体的合作提供有效的反馈,并在以前的作品中得到了广泛的调查。但是,有限的视野(FOV)本身限制了其性能。要应对这个问题,这封信提出了一种新的分布式主动视觉相关的相对本地化框架,并将其应用于空中群中的形成控制。灵感来自鸟群本质上,我们设计了基于图形的注意力计划(GAP),以改善群体中活跃视觉的观察质量。然后,主动检测结果与来自超宽带(UWB)的板载测量和视觉惯性内径(VIO)融合,以获得实时相对位置,从而进一步改善了群体的形成控制性能。模拟和实验表明,所提出的主动视觉系统在估计和形成准确性方面优于固定视觉系统。
translated by 谷歌翻译
In this paper, we propose a robust 3D detector, named Cross Modal Transformer (CMT), for end-to-end 3D multi-modal detection. Without explicit view transformation, CMT takes the image and point clouds tokens as inputs and directly outputs accurate 3D bounding boxes. The spatial alignment of multi-modal tokens is performed implicitly, by encoding the 3D points into multi-modal features. The core design of CMT is quite simple while its performance is impressive. CMT obtains 73.0% NDS on nuScenes benchmark. Moreover, CMT has a strong robustness even if the LiDAR is missing. Code will be released at https://github.com/junjie18/CMT.
translated by 谷歌翻译